home *** CD-ROM | disk | FTP | other *** search
/ TIME: Almanac 1995 / TIME Almanac 1995.iso / time / caps / 82 / 82dim < prev    next >
Encoding:
Text File  |  1995-02-23  |  15.4 KB  |  297 lines

  1. <text id=93HT0549>
  2. <link 90TT2386>
  3. <link 89TT3077>
  4. <link 89TT1390>
  5. <title>
  6. 1982: Big Dimwits And Little Geniuses
  7. </title>
  8. <history>
  9. TIME--The Weekly Newsmagazine--1982 Highlights    
  10. </history>
  11. <article>
  12. <source>Time Magazine</source>
  13. <hdr>
  14. January 3, 1983 
  15. MACHINE OF THE YEAR
  16. Big Dimwits and Little Geniuses 
  17. </hdr>
  18. <body>
  19. <p>Yesterday's klutzy machines have become today's micromarvels
  20. </p>
  21. <p>     The first electronic digital computer in the U.S. unveiled at
  22. the University of Pennsylvania in 1946, was a collection of
  23. 18,00 vacuum tubes, 70,000 resistors, 10,000 capacitors and
  24. 6,000 switches, and occupied the space of a two-car garage. Yet
  25. ENIAC (for Electronic Numerical Integrator and Calculator) was,
  26. in retrospect, a dimwit. When it worked, it did so only for
  27. short bursts because its tubes kept burning out. Built to
  28. calculate artillery firing tables, the half-million dollar ENIAC
  29. could perform 5,000 additions or subtractions per second. Today
  30. almost any home computer, costing only a few hundred dollars,
  31. can outperform poor old ENIAC as a "number cruncher."
  32. </p>
  33. <p>     Computer designers have obviously come a long way. But behind
  34. their spectacular achievements is a colorful history, one
  35. involving so many characters, so many innovations and such
  36. wrenching efforts that no single person or even country can
  37. claim authorship of the computer.
  38. </p>
  39. <p>     In a sense, humans have been computing--manipulating and
  40. comparing numbers or anything that they may represent--since
  41. they first learned how to count, probably with pebbles (the word
  42. calculus stems from the Latin for stone). At least 2,500 years
  43. ago, the Chinese, among others, discovered that they could
  44. handle numbers more easily by sliding little beads on strings.
  45. Their invention, the abacus, is still in use.
  46. </p>
  47. <p>     In 1642, perhaps pained by the long hours his tax-collector
  48. father spent doing sums, a 19-year-old French prodigy named
  49. Blaise Pascal made an automatic device that could add or
  50. subtract with the turning of little wheels. But the clerks who
  51. spent their lives doing calculations in those days viewed
  52. Pascal's gadget as a job threat, and it never caught on. A short
  53. time later, the German mathematician Gottfried Wilhelm Leibniz
  54. added the power of multiplication and division. Said he: "It
  55. was unworthy of excellent men to lose hours like slaves in the
  56. labor of calculations..."
  57. </p>
  58. <p>     But such mechanical contrivances were no more than calculators.
  59. They could only do arithmetic, and very clumsily at that. The
  60. first man to conceptualize a true computer, one that would be
  61. able to do math and much more, was in irascible 19th century
  62. English mathematician named Charles Babbage. Incensed by the
  63. inaccuracies he found in the mathematical tables of his time,
  64. the ingenious Babbage (father of the speedometer, the cowcatcher
  65. for locomotives and the first reliable life-expectancy tables)
  66. turned his fertile brain to creating an automaton that could
  67. rapidly and accurately calculate long lists of functions like
  68. logarithms. The result was an intricate system of gears and cogs
  69. called the Difference Engine.
  70. </p>
  71. <p>     Babbage managed to build only a simple model because the
  72. craftsmen of the day were unable to machine the precise parts
  73. required by the contraption. But the temperamental genius soon
  74. had a bolder concept. He called it the Analytical Engine. Even
  75. more complex than its predecessor, it had all the essentials of
  76. a modern computer: a logic center, or what Babbage called the
  77. "mill," which manipulated data according to certain rules; a
  78. memory, or "store," for holding information; a control unit for
  79. carrying out instructions; and the means for getting data into
  80. and out of the machine. Most important of all, its operating
  81. procedures could be changed at will:  the Analytical Engine was
  82. programmable.
  83. </p>
  84. <p>     Babbage worked obsessively on his machine for nearly 40 years.
  85. Presumable he was the world's first computer "nerd." Until his
  86. death in 1871, he ground out more and more sketches. The
  87. Analytical Engine became hopelessly complicated. It required
  88. thousands of individual wheels, levers and belts, all working
  89. together in exquisite precision. Few people understood what he
  90. was doing, with the notable exception of Lord Byron's beautiful
  91. and mathematically gifted daughter, Ada, the Countess of
  92. Lovelace, who became Babbage's confidante and public advocate.
  93. When the government cut off funds for the Analytical Engine, she
  94. and Babbage tried devising a betting system for recouping the
  95. money at the track. They lost thousands of pounds.
  96. </p>
  97. <p>     The Analytical Engine was never built. It would have been as big
  98. as a football field and probably needed half a dozen steam
  99. locomotives to power it. But one of its key ideas was soon
  100. adapted. To feed his machine its instruction, Babbage planned
  101. to rely on punched cards, like those used to control color and
  102. designs in the looms developed by the French weaver Joseph Marie
  103. Jacquard. Ada poetically described the scheme this way: "The
  104. Analytical Engine weaves algebraical patterns just as the
  105. Jacquard loom weaves flowers and leaves."
  106. </p>
  107. <p>     In the U.S., a young engineer named Herman Hollerith persuaded
  108. the Census Bureau to try the punched-card idea during the
  109. forthcoming 1890 census. Such personal information as age, sex,
  110. marital status and race was encoded on cards, which were read
  111. by electric sensors, and tabulated. Hollerith's equipment worked
  112. so well that the Census Bureau's clerks occasionally shut if off
  113. to protect their sinecures. Soon punched cards were widely used
  114. in office machinery, including that made by a small New York
  115. firm that absorbed Hollerith's company and became International
  116. Business Machines.
  117. </p>
  118. <p>     Babbage's dream of a true computer--one that could solve any
  119. number of problems--was not realized until the 1930s. In
  120. Hitler's Germany, an obscure young engineer named Konrad Zuse,
  121. using the German equivalent of an Erector set for parts and his
  122. parents' living room as his workshop, built a simple computer
  123. that could perform a variety of tasks; its descendants
  124. calculated wing designs for the German aircraft industry during
  125. World War II. At Bell Telephone Laboratories in the U.S., the
  126. research arm of AT&T, a mathematician named George Stibitz built
  127. a similar device in 1939 and even showed how it could do
  128. calculations over telephone wires. This was the first display
  129. of remote data processing. During the war a British group,
  130. putting into practice some of the ideas of their brilliant
  131. countryman Alan Turing, built a computer called Colossus I that
  132. helped break German military codes. The British, German and
  133. U.S. machines all shared a common characteristic: they were the
  134. first computers to use the binary system of numbers, the
  135. standard internal language of today's digital computers.
  136. </p>
  137. <p>     In this they departed from Babbage's "engine." The engine was
  138. designed to count by the tens, or the decimal system. Employing
  139. ten digits (0 to 9), the decimal system probably dates from the
  140. time when humans realized they had ten fingers and ten toes.
  141. (Digit comes from the Latin for finger or toe.)  But there are
  142. other ways of counting as well, by twelves, say, as in the hours
  143. of the day or months of the year (duodecimal system). In the
  144. binary system, only two digits are used, 0 and 1. To create a
  145. 2, you simply move a column to the left, just as you do to
  146. create a 10 in the decimal system. Thus if zero is represented
  147. by 0 and one by 1, then two is 10, three 11, four 100, five 101,
  148. six 110, seven 11, eight 1000, and so forth.
  149. </p>
  150. <p>     The binary system is enormously cumbersome. Although any number
  151. can be represented, it requires exasperatingly long strings of
  152. 0s and 1s. But putting such a system to work is a snap for
  153. digital computers. At their most fundamental level, the
  154. computers are little more than complex maze of on-off switches
  155. that reduce all information within the machine to one of two
  156. states: yes (1) or no (0), represented either by the presence
  157. of an electrical charge at a particular site or the absence of
  158. one. Accordingly, it in a row of three switches, two of them are
  159. in an on position (11) and the other off (0), they would
  160. represent the number six (110).
  161. </p>
  162. <p>     In the world of digital computers, each of these pieces of
  163. information is called a bit (for binary digit). In most
  164. personal computers, bits are shuttled about within the machine
  165. eight at a time, although some faster 16-bit machines are
  166. already on the small-computer market and even speedier 32-bit
  167. machines are in the offing. Clusters of eight bits, forming the
  168. equivalent of a single letter in ordinary language, are called
  169. bytes. A typical personal computer offers users anywhere from
  170. about 16,000 bytes of memory (16K) to 64,000 (64K). But that
  171. figure is climbing fast. A few years ago, the standard memory
  172. chip, a quarter-inch square of silicon, was 16K. Today it is
  173. rapidly becoming 64K, and the industry is already talking of
  174. mass-producing 256K chips.
  175. </p>
  176. <p>     The novel idea of using strings of 1s and 0s to solve complex
  177. problems traces back to another gifted Englishman, George Boole.
  178. A contemporary of Babbage's, he developed a system of
  179. mathematical logic that allows problems to be solved by reducing
  180. them to a series of questions requiring only an answer of true
  181. or false. Just three logical functions, call AND, OR and NOT,
  182. are needed to process Boole's "trues" and "falses," or 1s and
  183. 0s. In computers these operations are performed by simple
  184. combinations of on-off switches, called logic gates. They pass
  185. on information, that is pulses of electricity, only according
  186. to the Boolean rules built within them. Even a small home
  187. computer has thousands of such gates, each opening and closing
  188. more than a million times a second, sending bits and bytes of
  189. information coursing through the circuitry at nearly light's
  190. velocity (electricity travels about a foot in a billionth of a
  191. second).
  192. </p>
  193. <p>     The earliest digital computers were much more plodding. They
  194. relied on electromechanical on-off switches call relays, which
  195. physically opened and closed like the old Morse code keys.
  196. Physicist-Author Jeremy Bernstein recalls that Mark I, IBM's
  197. first large computer assembled at Harvard during World War II,
  198. sounded "like a roomful of ladies knitting." I could multiply
  199. two 23-digit numbers in about five seconds. Even some hand-held
  200. calculators can now do the same job in a fraction of the time.
  201. </p>
  202. <p>     ENIAC vastly increased computer speed by using vacuum tubes
  203. rather than electromechanical relays as its switches, but it
  204. still had a major shortcoming. To perform different operations,
  205. it had to be manually rewired, like an old wire-and-plug
  206. telephone switchboard, a task that could take several days. The
  207. Hungarian-born mathematical genius, John von Neumann, saw a
  208. solution. He suggested putting the machine's operating
  209. instructions, or program, within the same memory as the data to
  210. be processed and writing it in the same binary language. The
  211. computer could thus be programmed through the same input devices
  212. used to feed in data, such as a keyboard or a reel of tape. The
  213. first commercial computer to have such capability was
  214. Sperry-Rand's UNIVAC 1, which appeared in 1951 and, much to
  215. IBM's chagrin at being beaten, was promptly delivered to the
  216. Census Bureau.
  217. </p>
  218. <p>     Yet even while journalists were hailing the new "electronic
  219. superbrains," the machines were already becoming obsolete. In
  220. 1947 three scientists at Bell Labs invented a tiny, deceptively
  221. simple device called the transistor (short for transfer
  222. resistance). It was nothing more than a sandwich of
  223. semiconducting materials, mostly crystals of germanium; silicon
  224. became popular later. The crystals were arranged so that a tiny
  225. current entering one part of the sandwich could control a larger
  226. current in another. Hence, they could be used as switches,
  227. controlling the ebb and flow of electrons. Even the earliest
  228. transistors were much smaller than vacuum tubs, worked faster
  229. and had fewer failures. They gave off so little heat that they
  230. could be packed closely together. Above all, they were quite
  231. cheap to make.
  232. </p>
  233. <p>     Within a few years, the wizards at Bell Labs built the first
  234. fully transistorized (or solid-state) computer, a machine
  235. called Leprechaun. But by then Ma Bell, eager to avoid the wrath
  236. of the Justice Department's trustbusters, had sold licenses for
  237. only $25,000 to anyone who wanted to make transistors, and the
  238. scramble was on to profit from them. William Shockley, one of
  239. the transistor's three inventors, returned to his California
  240. home town, Palo Alto, to form his own company in the heart of
  241. what would become known as Silicon Valley. In Dallas, a young,
  242. aggressive maker of exploration gear for the oil industry, Texas
  243. Instruments, had already hired away another Bell Labs star,
  244. Gordon Teal, and was churning out the little gadgets. So were
  245. old-line tube makers such as General Electric, RCA, Sylvania and
  246. Raytheon. Much of their production went to the Pentagon, which
  247. found transistors ideal for a special computing task:  the
  248. guidance of missiles.
  249. </p>
  250. <p>     The first computers, even those built with transistors, were
  251. put together like early radios, with tangles of wires connecting
  252. each component. But soon electronics manufacturers realized that
  253. the wiring could be "printed" directly on a board, eliminating
  254. much of the hand-wiring. Then came another quantum leap into the
  255. miniworld. In the late 1950s, Texas Instruments' Jack Kilby and
  256. Fairchild Semiconductor's Robert Noyce (one of eight defectors
  257. from Shockley's firm whom he scathingly called the "traitorous
  258. eight") had the same brainstorm. Almost simultaneously, they
  259. realized that any number of transistors could be etched directly
  260. on a single piece of silicon along with the connections between
  261. them. Such integrated circuits (ICs) contained entire sections
  262. of a computer, for example, a logic circuit or a memory
  263. register. The microchip was born.
  264. </p>
  265. <p>     Designers kept cramming in more and more transistors. Today,
  266. hundreds of thousands can be etched on a tiny silicon chip. The
  267. chips also began incorporating more circuits. But even such so-
  268. called large-scale integration had a drawback. With the
  269. circuits rigidly fixed in the silicon, the chips performed only
  270. the duties for which they were designed. They were "hardwired,"
  271. as engineers say. That changed dramatically in 1971, when Intel
  272. Corp., a Silicon Valley company founded by Noyce after yet
  273. another "defection," unveiled the microprocessor. Designed by
  274. a young Intel engineer named Ted Hoff, it contained the entire
  275. central processing unit (CPU) of a simple computer on one chip.
  276. It was Babbage's mighty mill in microcosm.
  277. </p>
  278. <p>     With the microprocessor, a single chip could be programmed to
  279. do any number of tasks, from running a watch to steering a
  280. spacecraft. It could also serve as the soul of a new machine:
  281. the personal computer. By 1975 the first of the new breed of
  282. computers had appeared, a hobbyist machine called the Altair
  283. 8800 (cost: $395 in kit form, $621 assembled). The Altair soon
  284. vanished from the marketplace. But already there were other
  285. young and imaginative tinkerers out in Silicon Valley getting
  286. ready to produce personal computers, including one bearing an
  287. off symbol: an apple with a bite taken out of it. Suddenly, the
  288. future was now.
  289. </p>
  290. <p>-- By Frederic Golden 
  291. </p>
  292.  
  293. </body>
  294. </article>
  295. </text>
  296.  
  297.